预防和无线网络检测入侵和攻击已成为一个重要而严峻​​的挑战。在另一方面,由于无线节点的资源有限,使用监测在无线传感器网络中的永久监视节点,以防止和检测这种类型的网络的入侵和攻击的是几乎不存在。因此,今天来克服这个问题的解决方案是远程控制系统的讨论,并已成为在各个领域感兴趣的话题之一。远程监控的无线传感器网络节点的性能和行为,除了在网络内检测恶意节点,也可以在以后的预测恶意节点的行为。在目前的研究,采用基于鲸优化算法(WOA)和遗传算法(GA)和基于样本的分类的组合特征选择一个网络入侵检测系统,提出了在这项研究中,标准的数据集KDDCUP1999已经使用在这关系到健康的节点和类型的恶意节点的特性被存储基础网络中的攻击类型。该方法是基于特征选择的基础上的精度标准方面鲸优化算法和遗传算法KNN分类相结合,具有比其他以前的方法更好的结果。在此基础上,它可以说是鲸鱼优化算法和遗传算法提取了相关的类标签井的特征和KNN方法已经能够很好地检测出在无线网络的入侵检测数据集的不当行为节点。
translated by 谷歌翻译
尽管动态游戏为建模代理的互动提供了丰富的范式,但为现实世界应用程序解决这些游戏通常具有挑战性。许多现实的交互式设置涉及一般的非线性状态和输入约束,它们彼此之间的决策相结合。在这项工作中,我们使用约束的游戏理论框架开发了一个高效且快速的计划者,用于在受限设置中进行交互式计划。我们的关键见解是利用代理的目标和约束功能的特殊结构,这些功能在多代理交互中进行快速和可靠的计划。更确切地说,我们确定了代理成本功能的结构,在该结构下,由此产生的动态游戏是受约束潜在动态游戏的实例。受限的潜在动态游戏是一类游戏,而不是解决一组耦合的约束最佳控制问题,而是通过解决单个约束最佳控制问题来找到NASH平衡。这简化了限制的交互式轨迹计划。我们比较了涉及四个平面代理的导航设置中方法的性能,并表明我们的方法平均比最先进的速度快20倍。我们进一步在涉及一个四型和两个人的导航设置中对我们提出的方法提供了实验验证。
translated by 谷歌翻译
本文提出了一种数据驱动方法,用于使用收缩理论从离线数据学习收敛控制策略。收缩理论使得构建一种使闭环系统轨迹固有地朝向独特的轨迹的策略构成策略。在技​​术水平,识别收缩度量,该收缩度量是关于机器人的轨迹表现出收缩的距离度量通常是非琐碎的。我们建议共同了解控制政策及其相应的收缩度量,同时执行收缩。为此,我们从由机器人的状态和输入轨迹组成的离线数据集中学习机器人系统的隐式动态模型。使用此学习的动态模型,我们提出了一种用于学习收缩策略的数据增强算法。我们随机生成状态空间中的样本,并通过学习的动态模型在时间上向前传播,以生成辅助样本轨迹。然后,我们学习控制策略和收缩度量,使得来自离线数据集的轨迹之间的距离和我们生成的辅助样品轨迹随时间的减小。我们评估我们提出的模拟机器人目标达成任务的拟议框架的表现,并证明了执行收缩的速度较快,较快的收敛性和更大的学习政策的鲁棒性。
translated by 谷歌翻译
如今,由于高级数字成像技术和对公众的互联网访问,产生的数字图像的数量急剧增加。因此,对自动图像增强技术的需求非常明显。近年来,深入学习已经有效地使用。在这里,在介绍一些最近开发的图像增强工作之后,提出了一种基于卷积神经网络的图像增强系统。我们的目标是有效地利用两种可用的方法,卷积神经网络和双边网格。在我们的方法中,我们增加培训数据和模型尺寸,并在培训过程中提出可变速率。通过我们所提出的方法产生的增强结果,同时包含5个不同的专家,与其他可用方法相比,显示定量和定性的改进。
translated by 谷歌翻译